Световни новини без цензура!
Медицинските инструменти AI намаляват симптомите при жени и етнически малцинства
Снимка: ft.com
Financial Times | 2025-09-19 | 07:13:44

Медицинските инструменти AI намаляват симптомите при жени и етнически малцинства

Инструменти за изкуствен интелект, употребявани от лекарите, рискуват да доведат до по -лоши здравни резултати за дамите и етническите малцинства, защото възходящ набор от проучвания демонстрира, че доста огромни езикови модели понижават признаците на тези пациенти.

Поредица от скорошни изследвания са открили, че поглъщането на модели на ИИ в целия здравен бранш може да докара до предубедени медицински решения, засилващи модели на лекуване, които към този момент съществуват в разнообразни групи в западните общества.

Констатациите на откривателите в американските университети допускат, че медицинските принадлежности за зареждане на LLMS, които не отразяват по -малкото от медицинските принадлежности. „ Емпатията “ към черните и азиатските.

Предупрежденията идват, когато най -добрите международни AI групи като Microsoft, Amazon, Openai и Гугъл Rush да разработят артикули, които имат за цел да понижат натоварването на лекарите и да ускорят лекуването, всички в напъните си да оказват помощ за превъзмогване на здравните системи в света.

доста лечебни заведения и доктори Глобално се употребяват LLMS. Приложения за медицински бележки от започващи компании, в това число Nabla и Heidi, за автоматизирано генериране на преписи на визити на пациенти, акцентират медицински съответстващите детайлности и основават клинични систематизирания.

In June, Microsoft revealed it had built an AI-powered medical tool it claims is four times more successful than human doctors at diagnosing complex ailments.

But research by the MIT’s Jameel Clinic in June found that AI models, such as OpenAI’s GPT-4, Meta’s Llama 3 and Palmyra-Med — a healthcare focused LLM — recommended a much lower level of care for female Пациентите и предложиха на някои пациенти да се самоотражават вкъщи, вместо да търсят помощ.

Отделно изследване на екипа на MIT сподели, че GPT-4 на Openai и други модели също демонстрират отговори, които имат по-малко съчувствие към чернокожите и азиатските хора, които търсят поддръжка за психологични проблеми. в клиниката на Jameel на MIT. 

По същия метод, проучванията на Лондонското учебно заведение по стопанска система откриват, че моделът на Гугъл Gemma, който се употребява от повече от половината от локалните управляващи във Англия, с цел да поддържа обществените служащи, да омаловажава физическите и психическите проблеми на дамите спрямо мъжете, когато се употребяват и обобщават известията, чиито послания, съдържащи известия, съдържат по-голяма част от известията, чиито послания, съдържащи известия, съдържат по-голяма част от известията, съдържащи по-големи известия, съдържащи известия, съдържащи известия, съдържащи известия. Бъдете посъветвани да търсят здравна помощ от AI модели, употребявани в здравна конюнктура, против тези с съвършено форматирани връзки, даже когато клиничното наличие е същото.

Това може да докара до хора, които не приказват британски като първи език или не са комфортни да употребяват технология, която е незаслужено лекувана.

Проблемът с нездравословните пристрастия произтича частично от данните, употребявани от данните. Моделите с общо предопределение, като GPT-4, Llama и Gemini, се образоват, като се употребяват данни от интернет, а пристрастията от тези източници се отразяват в отговорите. Разработчиците на AI могат също да повлияят на това по какъв начин това прониква в системите, като прибавя защитни ограничения след образованието на модела.

„ Ако сте в каквато и да е обстановка, когато има възможност да бъде поставка на Reddit.

В изследване предходната година Зак и неговият екип откриват, че GPT-4 не регистрира демографското многообразие на медицинските положения и са склонни да стереотипират избрани раси, етноси и полове. 

Изследователите предизвестиха, че инструментите на AI могат да засилят моделите на подценяване, които към този момент съществуват в бранша на опазването на здравето, защото данните в здравните проучвания постоянно са мощно ориентирани към мъжете, а здравните проблеми на дамите, да вземем за пример, се сблъскват с хронично финансиране и проучвания.

Openai обявиха, че доста изследвания са оценили по-стар модел на GPT-4, а компанията са подобрили, че доста изследвания са оценили по-стар модел на GPT-4, а компанията са подобрили доста изследвания. Имаше екипи, работещи по понижаване на нездравословните или подвеждащи резултати, с необикновен акцент върху здравето. Компанията съобщи, че работи с външни клиницисти и откриватели, с цел да оцени своите модели, да тества своето държание и да разпознава опасности.

Групата също е създала пример дружно с физиците, с цел да оцени качествата на LLM в здравето, което взема поради поръчките на потребителите на разнообразни стилове, равнища на съответност и детайлности.

google сподели, че вземат на моделните пристрастия „ Изключително съществено “ и създава Privacy Technique, че може да може да се преглеждат модели на модели, извънредно съществено. Набори от данни и развиват защитни ограничения против пристрастия и дискриминация. 

Изследователите допуснаха, че един от методите за понижаване на медицинските пристрастия в AI е да се разпознават какви набори от данни не би трябвало да се употребяват за образование преди всичко и по-късно да се обучат на разнородни и по -представителни набори от здравни данни.

Зак сподели, че отворените доказателства, които се употребяват от 400 000 лекари в Съединени американски щати, с цел да обобщят историите на пациентите и да извличат информация, да образоват своите модели в медицински списания, етикетите на американската администрация по храните и медикаментите, здравните насоки и експертните прегледи. Всяка продукция на AI също е подкрепена с цитиране на източник.

По -рано тази година откривателите от University College London и King's College London си партнираха с NHS на Обединеното кралство за създаване на генеративен модел на AI, като се отнасят за лекуване. Прием на болница и имунизации на Covid-19. Прогнозата е предопределена да предвижда евентуални резултати от здравето, като хоспитализация или сърдечни пристъпи.

„ Работата с национални данни ни разрешава да представяме цялостния тип калейдоскопски щат Англия във връзка с демографските и заболяванията “, съобщи Крис Томлинсън, почетен помощник на научните проучвания в UCL, който е водещ откривател на екипа на Foresights. Въпреки че не е съвършен, Томлинсън съобщи, че предлага по-добър старт от по-общите набори от данни.

Европейските учени също са обучили AI модел, наименуван Delphi-2M, който предвижда чувствителността към заболявания десетилетия в бъдещето въз основа на анонимизирани медицински записи от 400 000 участници в BioBank на Англия.

Но с действителни данни за пациента от този мащаб, поверителността постоянно се трансформира в проблем. Проектът за предугаждане на NHS беше спрян през юни, с цел да разреши на офиса на комисаря по информацията в Обединеното кралство да прегледа тъжба за отбрана на данните, подадено от Британската здравна асоциация и Кралския лицей на общопрактикуващите лекари, с цел да се употребява чувствителни здравни данни в образованието на модела.

В допълнение, специалистите са предизвестили, че системите на AI постоянно „ халюцинират “ - или сформират отговори - които могат да бъдат изключително нездравословни в региона на медицинския подтекст. сподели, че AI носи големи изгоди за опазването на здравето. „ Надявам се, че ще стартираме да пренасочваме моделите в здравето при справяне с основните здравни пропуски, без да прибавяме спомагателен % към осъществяването на дилемите, че лекарите са почтено много положителни. “

Източник: ft.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!